Cos'è matrice di confusione?

La matrice di confusione è una tabella utilizzata per valutare la precisione di un modello di classificazione. È una delle misure più comuni utilizzate per valutare le prestazioni di un modello di machine learning.

La matrice di confusione mostra il numero di predizioni corrette e incorrette fatte dal modello per ogni classe di output. È chiamata matrice di confusione perché può mostrare facilmente se il modello sta confondendo due classi simili.

La matrice di confusione ha righe che rappresentano le classi reali e colonne che rappresentano le classi predette dal modello. Gli elementi nella diagonale principale indicano il numero di predizioni corrette per ciascuna classe, mentre gli elementi fuori dalla diagonale principale indicano il numero di predizioni errate.

Sulla base della matrice di confusione, è possibile calcolare diverse metriche per valutare il modello, come ad esempio l'accuratezza, la sensibilità (o recall), la specificità e la precisione.

L'accuratezza è la percentuale di predizioni corrette rispetto al totale delle predizioni. La sensibilità indica la percentuale di casi positivi correttamente identificati dal modello, mentre la specificità indica la percentuale di casi negativi correttamente identificati. La precisione indica la percentuale di casi positivi predetti correttamente rispetto al totale dei casi predetti come positivi.

La matrice di confusione fornisce quindi una panoramica dettagliata sulle prestazioni del modello di classificazione e può essere utilizzata per migliorarlo, aggiustando i parametri o utilizzando altre tecniche come l'oversampling o l'undersampling.